全文获取类型
收费全文 | 16548篇 |
免费 | 3872篇 |
国内免费 | 5955篇 |
专业分类
测绘学 | 3127篇 |
大气科学 | 2328篇 |
地球物理 | 2861篇 |
地质学 | 10895篇 |
海洋学 | 3093篇 |
天文学 | 279篇 |
综合类 | 1429篇 |
自然地理 | 2363篇 |
出版年
2024年 | 81篇 |
2023年 | 372篇 |
2022年 | 947篇 |
2021年 | 1194篇 |
2020年 | 926篇 |
2019年 | 1097篇 |
2018年 | 1003篇 |
2017年 | 930篇 |
2016年 | 937篇 |
2015年 | 1165篇 |
2014年 | 1077篇 |
2013年 | 1424篇 |
2012年 | 1502篇 |
2011年 | 1488篇 |
2010年 | 1407篇 |
2009年 | 1319篇 |
2008年 | 1447篇 |
2007年 | 1280篇 |
2006年 | 1285篇 |
2005年 | 983篇 |
2004年 | 883篇 |
2003年 | 724篇 |
2002年 | 767篇 |
2001年 | 655篇 |
2000年 | 536篇 |
1999年 | 264篇 |
1998年 | 132篇 |
1997年 | 92篇 |
1996年 | 60篇 |
1995年 | 57篇 |
1994年 | 49篇 |
1993年 | 43篇 |
1992年 | 38篇 |
1991年 | 28篇 |
1990年 | 29篇 |
1989年 | 18篇 |
1988年 | 19篇 |
1987年 | 18篇 |
1986年 | 12篇 |
1985年 | 13篇 |
1984年 | 13篇 |
1983年 | 4篇 |
1982年 | 11篇 |
1981年 | 5篇 |
1979年 | 6篇 |
1976年 | 3篇 |
1975年 | 4篇 |
1958年 | 3篇 |
1957年 | 8篇 |
1954年 | 6篇 |
排序方式: 共有10000条查询结果,搜索用时 750 毫秒
991.
2010—2016年江西省暖季短时强降水特征分析 总被引:2,自引:0,他引:2
利用江西省2010—2016年5—9月1597个观测站逐小时降水资料对江西省短时强降水进行统计分析。采用REOF将降水场划分为5个区域:赣北南部(Ⅰ区),抚州市及赣州中部(Ⅱ区),赣北北部(Ⅲ区),赣南南部、北部(Ⅳ区)以及赣中西部(Ⅴ区)。短时强降水高频区主要分布在山地及河谷附近,分别为湘赣交界罗霄山脉东侧、武夷山西侧、信江河谷、乐安河谷和昌江河谷。河谷附近短时强降水频次以昌江河谷最高(16.9次/a),山地附近最高在罗霄山脉东侧(12.6次/a),极端短时强降水分别位于上饶市东北部山区(3.7次/a)及九岭山南侧的锦江河谷(3.3次/a)。短时强降水主要发生在5月第3候,6、7月第3~4候以及8月第2~3候。Ⅳ、Ⅴ区具有单峰型的日变化特征;Ⅰ、Ⅱ、Ⅲ区具有双峰型的日变化特征。主峰基本集中在下午17时;次峰在上午08—10时。短时强降水对暴雨贡献率基本在40%以上,Ⅰ、Ⅱ区的暴雨天气过程将近一半是由短时强降水贡献的。信江河谷是暴雨雨量中心,但并不是短时强降水雨量中心;昌江河谷与武夷山西麓既是暴雨中心也是短时强降水中心。 相似文献
992.
利用天气观测资料和NCEP再分析资料对2004-2013年5-9月影响山东的切变线天气特征和环流形势进行了分析。将影响山东的切变线按热力性质分为冷切变线和暖切变线,10a间影响山东的切变线共发生59次,其中暖切变线出现43次,占切变线总发生次数73%;冷切变线出现16次,占切变线总发生次数27%。切变线发生频数7月最多,6月次之,分别占切变线总数的35.6%和23.7%,9月最少,约占0.05%。影响山东典型切变线的发生与副高关系密切,冷切变线多出现在西风槽东移受阻,在对流层低层逐渐形成,暖切变线则出现在西风带小高压与副高合并,副高北抬时形成。针对2次典型冷暖切变线暴雨天气过程对比分析其暴雨落区、雷达回波特征和动力机制等,结果发现:暖切变线降水的强度、暴雨范围和持续时间明显大于冷切变线降水。暖切变线暴雨的GPS可降水量在强降雨出现前8h快速上升,可降水量峰值对应地面降雨大值,对地面降雨变化反映不敏感,物理量呈垂直分布,强回波单体基本位于暖切变线雨带的中间。冷切变线暴雨的GPS可降水量短时间内增幅大,地面强降雨在峰值出现1h后发生,对地面降雨变化反映较敏感,物理量从低层到高层向北倾斜且上升运动区较深厚,回波单体位于切变线南侧。 相似文献
993.
利用风廓线雷达研究郑州机场低空急流特征及其对飞行的影响 总被引:1,自引:0,他引:1
利用2016、2017年郑州机场高分辨率边界层风廓线雷达半小时平均观测资料, 对机场上空低空急流时空分布特征进行统计研究, 结果表明:夏末、秋季低空急流出现次数相对较少, 春季、夏初是高发时期, 冬季易出现较强的超低空急流, 只有春季风速从低层到高层呈现先增大后减小、再增大的变化过程, 8月末可能是急流的时空转换期; 夜间和凌晨是高发时段, 白天降低30%~40%, 一般情况下, 00—12时(世界时, 下同)急流较弱, 12时后明显增强向上发展, 19时开始减弱, 持续至21时; 急流中心最大风速一半以上在12~18 m/s, 高度集中在60~180 m和300~900 m, 超低空急流占大部分, 夜间出现最大风速的概率远高于白天; 低空急流发生高度大部分在飞机起飞或着陆的范围内, 使飞机复飞概率增加, 对夜间航班影响更大。 相似文献
995.
996.
997.
Investigation of highly efficient algorithms for solving linear equations in the discontinuous deformation analysis method 下载免费PDF全文
Large‐scale engineering computing using the discontinuous deformation analysis (DDA) method is time‐consuming, which hinders the application of the DDA method. The simulation result of a typical numerical example indicates that the linear equation solver is a key factor that affects the efficiency of the DDA method. In this paper, highly efficient algorithms for solving linear equations are investigated, and two modifications of the DDA programme are presented. The first modification is a linear equation solver with high efficiency. The block Jacobi (BJ) iterative method and the block conjugate gradient with Jacobi pre‐processing (Jacobi‐PCG) iterative method are introduced, and the key operations are detailed, including the matrix‐vector product and the diagonal matrix inversion. Another modification consists of a parallel linear equation solver, which is separately constructed based on the multi‐thread and CPU‐GPU heterogeneous platforms with OpenMP and CUDA, respectively. The simulation results from several numerical examples using the modified DDA programme demonstrate that the Jacobi‐PCG is a better iterative method for large‐scale engineering computing and that adoptive parallel strategies can greatly enhance computational efficiency. Copyright © 2015 John Wiley & Sons, Ltd. 相似文献
998.
999.
1000.
The distinct lattice spring model (DLSM) is a newly developed numerical tool for modeling rock dynamics problems, i.e. dynamic failure and wave propagation. In this paper, parallelization of DLSM is presented. With the development of parallel computing technologies in both hardware and software, parallelization of a code is becoming easier than before. There are many available choices now. In this paper, Open Multi‐Processing (OpenMP) with multicore personal computer (PC) and message passing interface (MPI) with cluster are selected as the environments to parallelize DLSM. Performances of these parallel DLSM codes are tested on different computers. It is found that the parallel DLSM code with OpenMP can reach a maximum speed‐up of 4.68× on a quad‐core PC. The parallel DLSM code with MPI can achieve a speed‐up of 40.886× when 256 CPUs are used on a cluster. At the end of this paper, a high‐resolution model with four million particles, which is too big to handle by the serial code, is simulated by using the parallel DLSM code on a cluster. It is concluded that the parallelization of DLSM is successful. Copyright © 2011 John Wiley & Sons, Ltd. 相似文献